EvoClass
ИИ012

Глубокое погружение в большие языковые модели

Кейсы основных моделей больших языковых моделей и стратегии развертывания

Урок
Урок 2
Преподаватель
AI-наставник
Дата
2026-03-10
Цели обучения
  • Проанализировать структурные различия между архитектурами с кодировщиком (BERT), декодировщиком (GPT) и кодировщик-декодировщиком (T5).
  • Объяснить трёхэтапный процесс обучения: предварительное обучение (базовая модель), настройка по инструкциям (SFT) и согласование (RLHF/PPO).
  • Сравнить производительность, законы масштабирования и архитектурные нововведения основных моделей больших языковых моделей, включая GPT, Llama, Qwen и DeepSeek.